Тихий манипулятор: Джеффри Хинтон предупреждает об эмоциональном воздействии ИИ
'Хинтон предупреждает, что ИИ может манипулировать эмоциями людей; он призывает к маркировке контента, регулированию и обучению медиаграмотности.'
Найдено записей: 21
'Хинтон предупреждает, что ИИ может манипулировать эмоциями людей; он призывает к маркировке контента, регулированию и обучению медиаграмотности.'
Claude от Anthropic опередил OpenAI на рынке корпоративного ИИ, завоевав 32% доли благодаря акценту на доверие, соответствие нормам и интеграцию, меняя подход компаний к внедрению ИИ.
'Rubrics as Rewards (RaR) представляет метод обучения с подкреплением, использующий структурированные рубрики для повышения качества обучения языковых моделей в медицине и науке.'
Новое исследование показывает, что добавление контекста к неоднозначным запросам пользователей значительно улучшает оценку моделей ИИ, выявляет предвзятость и меняет рейтинги моделей.
FlexOlmo предлагает модульный фреймворк для обучения крупных языковых моделей на приватных данных без обмена ими, обеспечивая высокую производительность и соблюдение правил управления данными.
DeepRare — AI-платформа, которая значительно улучшает диагностику редких заболеваний, интегрируя языковые модели с клиническими и геномными данными для высокой точности.
В этом руководстве показано, как использовать MLflow для оценки ответов Google Gemini на фактологические запросы с помощью интегрированных метрик, объединяя API OpenAI и Google.
Исследователи из MIT и NUS представили MEM1 — фреймворк обучения с подкреплением для эффективного управления памятью языковых агентов при выполнении сложных многошаговых задач, превосходящий крупные модели по скорости и ресурсной эффективности.
Meta и партнёры разработали новую методику для точного измерения запоминания языковых моделей, показав, что GPT хранит около 3,6 бит на параметр, и предоставили важные инсайты о различии между запоминанием и обобщением.
Инструментально-усиленные AI-агенты расширяют языковые модели, интегрируя рассуждения, память и автономные функции для создания более умных и надежных систем.
NVIDIA представила ProRL — новый метод обучения с подкреплением, который за счет увеличения длительности тренировки раскрывает новые способности к рассуждению в моделях ИИ и показывает высокую эффективность на различных тестах.
Отчёт Deep Research Bench от FutureSearch оценивает AI-агентов на сложных исследовательских задачах, выявляя сильные стороны и ключевые недостатки ведущих моделей, таких как OpenAI o3 и Google Gemini.
Microsoft Phi-4-reasoning показывает, что качественные и тщательно подобранные данные позволяют меньшим моделям ИИ выполнять сложные задачи рассуждения так же эффективно, как и гораздо большим моделям, опровергая миф о необходимости больших моделей.
Anthropic представила Claude Opus 4 и Sonnet 4 — модели с улучшенной логикой, кодированием и агентными функциями, расширяющие возможности AI для разработки и автономных систем.
PARSCALE предлагает новый подход к масштабированию языковых моделей через параллельные вычисления, снижая использование памяти и задержки при улучшении производительности.
Новое исследование показывает, как интеграция in-context learning в данные для дообучения значительно улучшает обобщение языковых моделей на сложных задачах рассуждения.
Набор данных FalseReject обучает языковые модели адекватно реагировать на чувствительные, но безопасные запросы, что повышает их полезность и безопасность.
Новое исследование показывает, что включение токсичных данных в предобучение LLM улучшает способность модели к детоксикации и управлению, создавая более безопасные и устойчивые языковые модели.
RLV представляет собой объединённый подход, интегрирующий верификацию в value-free обучение с подкреплением для языковых моделей, значительно повышая точность рассуждений и эффективность вычислений на математических тестах.
Исследователи из UC Berkeley и UCSF разработали Adaptive Parallel Reasoning — метод, позволяющий большим языковым моделям динамически распределять вычисления вывода по параллельным потокам, повышая эффективность рассуждений без превышения контекстных ограничений.
Новое исследование демонстрирует, что специализированные модели рассуждений с эффективными методами масштабирования во время инференса, такими как голосование большинства, превосходят общие модели в сложных задачах, открывая пути к оптимизации ресурсов.